文化,性别,种族等的偏见已经存在数十年,并影响了人类社会互动的许多领域。这些偏见已被证明会影响机器学习(ML)模型,并且对于自然语言处理(NLP),这可能会对下游任务产生严重的后果。减轻信息检索(IR)中的性别偏见对于避免传播刻板印象很重要。在这项工作中,我们采用了一个由两个组成部分组成的数据集:(1)文档与查询的相关性以及(2)文档的“性别”,其中代词被男性,女性和中性结合代替。我们明确地表明,当对大型预训练的BERT编码器进行全面微调时,IR的预训练模型在零摄像的检索任务中不能很好地表现,并且使用适配器网络执行的轻量级微调可改善零摄像机的检索基线的性能几乎比20%。我们还说明,预训练的模型具有性别偏见,导致检索到往往比女性更频繁的文章。我们通过引入一种偏见技术来克服这一目标,该技术在模型更喜欢男性而不是女性时惩罚该模型,从而产生了一个有效的模型,该模型以平衡的方式检索文章。
translated by 谷歌翻译